隐式神经表示(INR)使用多层的感知来代表低维问题域中的高频函数。最近,这些表示在与复杂的3D对象和场景相关的任务上实现了最先进的结果。核心问题是高度详细信号的表示,其使用具有周期性激活功能(警报器)的网络来解决或将傅立叶映射应用于输入。这项工作分析了两种方法之间的连接,并表明傅里叶映射的Perceptron在结构上像一个隐藏层警报器。此外,我们确定先前提出的傅里叶映射与一般D维傅里叶系列之间的关系,导致整数晶格映射。此外,我们修改了渐进式培训策略,以便在任意傅里叶映射上工作,并表明它提高了插值任务的泛化。最后,我们比较图像回归和新颖观看综合任务的不同映射。我们确认前面发现映射性能的主要贡献者是其元素的嵌入和标准偏差的大小。
translated by 谷歌翻译
我们呈现Fouriermask,它采用傅立叶系列与隐式的神经表示结合起来,以产生实例分段掩模。我们将傅里叶映射(FM)应用于坐标位置,并利用映射特征作为隐式表示的输入(基于坐标的多层Perceptron(MLP))。 FouriMASK学习为特定实例预测FM的系数,因此将FM适应特定对象。这允许Fouriermask广泛化以预测来自自然图像的实例分段掩模。由于隐式功能在输入坐标的域中是连续的,因此我们说明通过对输入像素坐标进行分采样,因此我们可以在推理期间生成更高的分辨率掩码。此外,我们在Fourimask的不确定预测上培训渲染器MLP(Fourrierrend),并说明它显着提高了面具的质量。与在相同输出分辨率的基线掩模R-CNN相比,Fourimask在MS Coco DataSet上显示竞争结果,并在更高分辨率上超越它。
translated by 谷歌翻译
With the rising need of interpretable machine learning methods, there is a necessity for a rise in human effort to provide diverse explanations of the influencing factors of the model decisions. To improve the trust and transparency of AI-based systems, the EXplainable Artificial Intelligence (XAI) field has emerged. The XAI paradigm is bifurcated into two main categories: feature attribution and counterfactual explanation methods. While feature attribution methods are based on explaining the reason behind a model decision, counterfactual explanation methods discover the smallest input changes that will result in a different decision. In this paper, we aim at building trust and transparency in time series models by using motifs to generate counterfactual explanations. We propose Motif-Guided Counterfactual Explanation (MG-CF), a novel model that generates intuitive post-hoc counterfactual explanations that make full use of important motifs to provide interpretive information in decision-making processes. To the best of our knowledge, this is the first effort that leverages motifs to guide the counterfactual explanation generation. We validated our model using five real-world time-series datasets from the UCR repository. Our experimental results show the superiority of MG-CF in balancing all the desirable counterfactual explanations properties in comparison with other competing state-of-the-art baselines.
translated by 谷歌翻译
此导频研究侧重于称为L2L的工具,允许第二语言(L2)学习者可视化和分析其与母语人员的缩放交互。 L2L使用Zoom转录程序自动生成对话指标,其播放功能与时间戳允许学生重放会话后的任何所选部分的会话反映和自我评审。这项探索性研究调查了一个七周的Teletandem项目,来自爱尔兰大学的本科生学习法国(B2)与来自法国大学学习英语(B2 +)的同龄人通过放大互动。从调查(n = 43)和半结构化访谈(n = 35)收集的数据表明,定量对话指标和对同步内容的定性审查有助于提高学生的置信水平,同时与母语扬声器汇集。此外,它允许他们设定有形的目标来提高他们的参与,并更加了解他们是如何学习的原因。
translated by 谷歌翻译